ICLR2023 图神经网络论文合集 您所在的位置:网站首页 图神经网络 动作识别 ICLR2023 图神经网络论文合集

ICLR2023 图神经网络论文合集

2023-04-30 03:39| 来源: 网络整理| 查看: 265

国际表征学习大会(International Conference on Learning Representations,简称 ICLR)是深度学习领域的顶级会议,关注有关深度学习各个方面的前沿研究,在人工智能、统计和数据科学领域以及机器视觉、语音识别、文本理解等重要应用领域中发布了众多极其有影响力的论文。

AMiner通过AI技术,对 ICLR2023 收录的会议论文进行了分类整理,今日分享的是图神经网络主题论文,共66篇,我们在这里展示十篇最受欢迎的论文,欢迎下载收藏!

1. Graph Neural Networks for Link Prediction with Subgraph Sketching

作者:Benjamin Paul Chamberlain,Sergey Shirobokov,Emanuele Rossi,Fabrizio Frasca,Thomas Markovich,Nils Hammerla,Michael M. Bronstein,Max HansmireAI综述(大模型驱动):许多图生成网络(GNNs)在Link预测(LP)任务中表现不佳。这主要是由于无法区分具有相同的结构角色的梯度,以及由于它们不能区分自旋和自旋节点。两种表达能力问题可以通过学习桥梁(而不是节点)表示来消除,并结合结构特征,如三叉数。最近的工作侧重于基于子段的方法,这些方法在LP中取得了最先进的性能,但由于子段之间的冗余率很高,会导致效率低下。我们分析了基于子句的桥梁方法的组成部分。论文链接:https://www.aminer.cn/pub/633a52a290e50fcafd68917d/

2. Learning on Large-scale Text-attributed Graphs via Variational Inference

作者:Jianan Zhao,Meng Qu,Chaozhuo Li,Hao Yan,Qian Liu,Rui Li,Xing Xie,Jian TangAI综述(大模型驱动):本文研究了文本标注图的学习,每个节点都与一个文本描述相关。理想的解决方案是将语言模型和图形神经网络(GNN)与大规模语言模型、图形语言神经网络和EM框架相结合。然而,对于大规模的图,这个问题变得非常困难,因为大规模的文本和图的计算复杂性使得问题变得非常棘手。在本文中,我们提出了一种有效的和有效的学习方法,通过将图结构和语言学习与变量期望最大化(EM)框架结合,将其改进为E-步骤和M步骤。这种程序允许单独训练两个模块,但同时允许它们相互增强。大量数据集的实验证明了该方法的效率和有效性。论文链接:https://www.aminer.cn/pub/6359f6fb90e50fcafd8b7f62/

3. Pre-training via Denoising for Molecular Property Prediction

作者:Sheheryar Zaidi,Michael Schaarschmidt,James Martens,Hyunjik Kim,Yee Whye Teh,Alvaro Sanchez-Gonzalez,Peter Battaglia,Razvan Pascanu,Jonathan GodwinAI综述(大模型驱动):我们描述了一种预训练技术,该技术利用大规模3D蛋白质结构的大型数据集来学习下流任务的 meaningful表示。受最新技术的发展启发,我们的预训练目的是基于形容词。基于早期的噪音规范化,我们还表明,目标对应于学习一种蛋白质动力场——来自将全局状态与几何方阵相结合的混合方程式——直接从平衡结构中归纳出。我们的实验表明,使用该预训练目标大大提高了多个基线性能,达到了广泛使用的QM9数据集的最新水平。论文链接:https://www.aminer.cn/pub/62982a9a5aee126c0f6f5ecb/

4. Rethinking the Expressive Power of GNNs via Graph Biconnectivity

作者:Bohang Zhang,Shengjie Luo,Liwei Wang,Di HeAI综述(大模型驱动):图结构化神经网络的表达能力是学习图结构化数据的关键问题。然而,对于许多现有的方法,对这些方法的影响尚未深入研究。在本文中,我们将从维特菲尔德·勒哈曼(WL)测试的角度研究GNN的表达能力。具体来说,我们介绍了一个新的表达性度量类别,并突出它们在理论和实践中的重要性。 论文链接:https://www.aminer.cn/pub/63dcdb422c26941cf00b609d/

5. Relational Attention: Generalizing Transformers for Graph-Structured Tasks

作者:Cameron Diao,Ricky LoyndAI综述(大模型驱动): 本文描述了一种用于对图结构化数据进行推理的关系转换器。该变体在各种图结构化的任务上表现出优于最先进的基于字符串的机器学习算法。我们评估了这种关系转换器的性能,并表明它比最先进的基于字符串的机器学习算法具有更好的表达能力。论文链接:https://www.aminer.cn/pub/6346305790e50fcafda0574e/

6. Characterizing the Influence of Graph Elements

作者:Zizhang Chen,Peizhao Li,Hongfu Liu,Pengyu HongAI综述(大模型驱动):影响函数是一种从鲁棒统计中归纳出的有效和有用的随机方法。它是一个快速、有效且不耗时的方法来研究机器学习模型的解释能力。最近,这些系统对图变换网络(GCN)的影响引起了巨大的关注。然而,没有先前研究过关于将图中的训练实例移除或修改的影响函数的研究。为了填补这一缺口,我们提出了一个简单的三角图建模(SGC)模型,该模型在属性矩阵上运行,并为给定任意节点或边界的估计值量化了一个影响函数。此外,我们进行了理论分析,以估计移除一个节点的误差边界。最后,我们证明了如何有效地使用影响函数来指导敌对攻击。 论文链接:https://www.aminer.cn/pub/634cc7a390e50fcafd162e75/

7. Link Prediction with Non-Contrastive Learning

作者:William Shiao,Zhichun Guo,Tong Zhao,Evangelos E. Papalexakis,Yozen Liu,Neil ShahAI综述(大模型驱动):在本文中,我们评估了现有的非对称学习算法在图神经网络中进行链接预测的性能。尽管大多数现有的非对称方法优于基线,但它们在反射和诱导等应用程序中表现不佳。我们提出了一种新的基于廉价腐蚀的无向对比框架T-BGRL,该框架将无向对比扩展到训练图中以提高模型泛化能力。这种简单的修改大大改善了声学性能,比其他非对比基线基线高14倍。 论文链接:https://www.aminer.cn/pub/6385787b90e50fcafdf47be0/

8. DAG Matters! GFlowNets Enhanced Explainer for Graph Neural Networks

作者:Wenqian Li,Yinchuan Li,Zhigang Li,Jianye HAO,Yan PangAI综述(大模型驱动):图神经网络预测的解释器我们提出了一种从组合优化中提取子节点概率的方法。该方法不需要预先训练的策略,并且可以有效地探索给定子节点的 Parent State。它避免了对节点序列的影响,因此不需要任何预先训练的策略。我们还提出了一种新的切分矩阵来有效地探索给定子节点的祖先状态,从而使我们的方法在大型背景下适用。 论文链接:https://www.aminer.cn/pub/63dcdb422c26941cf00b6660/

9. Deep Ensembles for Graphs with Higher-order Dependencies

作者:Steven J. Krieg,William C. Burgis,Patrick M. Soga,Nitesh V. ChawlaAI综述(大模型驱动):图神经网络在许多图学习任务中都能取得最先进的性能,但依赖于给出的图是正确的区分结构的假设。当一个系统包含更高阶顺序相关联时,我们表明,传统的图表示倾向于对每个节点节点的区域进行过度拟合。为了解决这个问题,我们提出了一种新的深层图集(DGE),它捕捉了局部变异,并通过训练一组GNN在相同节点节点的不同节点子空间上对其进行了区分性训练。我们证明,学习多样化的基线分类器至关重要,尤其是对于具有已知高阶依赖性的六个实际数据集来说。 论文链接:https://www.aminer.cn/pub/629435a05aee126c0f2fe392/

10. Simple Yet Effective Graph Contrastive Learning for Recommendation

作者:Xuheng Cai,Chao Huang,Lianghao Xia,Xubin RenAI综述(大模型驱动):在本文中,我们提出了一种简单的 yet有效的图形对比性学习范式LightGCL。我们的模型仅使用单一的属性分解来捕获最先进的特征集成。实验表明,该方法优于基线建议者的一般性和鲁棒性。进一步分析表明,与数据稀疏和流行误导相比,LightGCL比基线建议者具有更好的可靠性。 论文链接:https://www.aminer.cn/pub/63dcdb422c26941cf00b6152/

想查看全部图神经网络论文,可以点击下方链接:

https://www.aminer.cn/conf/5ea1d518edb6e7d53c0100cb/ICLR2023



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有